home *** CD-ROM | disk | FTP | other *** search
/ Usenet 1993 July / InfoMagic USENET CD-ROM July 1993.ISO / answers / neural-net-faq < prev    next >
Encoding:
Internet Message Format  |  1993-06-27  |  82.1 KB

  1. Path: senator-bedfellow.mit.edu!enterpoop.mit.edu!xlink.net!ira.uka.de!prechelt
  2. From: prechelt@ira.uka.de (Lutz Prechelt)
  3. Newsgroups: comp.ai.neural-nets,comp.answers,news.answers
  4. Subject: FAQ in comp.ai.neural-nets -- monthly posting
  5. Supersedes: <nn.posting_738920187@i41s14.ira.uka.de>
  6. Followup-To: comp.ai.neural-nets
  7. Date: 28 Jun 1993 02:16:34 GMT
  8. Organization: University of Karlsruhe, Germany
  9. Lines: 1960
  10. Approved: news-answers-request@MIT.Edu
  11. Expires: 2 Aug 1993 02:18:02 GMT
  12. Message-ID: <nn.posting_741233882@i41s14.ira.uka.de>
  13. Reply-To: prechelt@ira.uka.de (Lutz Prechelt)
  14. NNTP-Posting-Host: i41s18.ira.uka.de
  15. Keywords: questions, answers, terminology, bibliography
  16. Originator: prechelt@i41s18
  17. Xref: senator-bedfellow.mit.edu comp.ai.neural-nets:11026 comp.answers:1137 news.answers:9771
  18.  
  19. Archive-name: neural-net-faq
  20. Last-modified: 93/06/07
  21.  
  22. (FAQ means "Frequently Asked Questions")
  23.  
  24.   ------------------------------------------------------------------------
  25.         Anybody who is willing to contribute any question or
  26.         information, please email me; if it is relevant,
  27.         I will incorporate it. But: Please format your contribution
  28.         appropriately so that I can just drop it in.
  29.  
  30.         The monthly posting departs at the 28th of every month.
  31.   ------------------------------------------------------------------------
  32.  
  33. This is a monthly posting to the Usenet newsgroup comp.ai.neural-nets
  34. (and news.answers, where it should be findable at ANY time)
  35. Its purpose is to provide basic information for individuals who are
  36. new to the field of neural networks or are just beginning to read this 
  37. group. It shall help to avoid lengthy discussion of questions that usually 
  38. arise for beginners of one or the other kind.
  39.  
  40. >>>>> SO, PLEASE, SEARCH THIS POSTING FIRST IF YOU HAVE A QUESTION <<<<<
  41.                            and
  42. >>>>> DON'T POST ANSWERS TO FAQs: POINT THE ASKER TO THIS POSTING <<<<<
  43.  
  44. This posting is archived in the periodic posting archive on
  45. host trfm.mit.edu (and on some other hosts as well).
  46. Look in the anonymous ftp directory "/pub/usenet/news.answers",
  47. the filename is as given in the 'Archive-name:' header above.
  48. If you do not have anonymous ftp access, you can access the archives
  49. by mail server as well.  Send an E-mail message to
  50. mail-server@rtfm.mit.edu with "help" and "index" in the body on
  51. separate lines for more information.
  52.  
  53.  
  54. The monthly posting is not meant to discuss any topic exhaustively.
  55.  
  56. Disclaimer: This posting is provided 'as is'.
  57.             No warranty whatsoever is expressed or implied, 
  58.             especially, no warranty that the information contained herein
  59.             is correct or useful in any way, although both is intended.
  60.  
  61. >> To find the answer of question number <x> (if present at all), search
  62. >> for the string "-A<x>.)" (so the answer to question 12 is at "-A12.)")
  63.  
  64. And now, in the end, we begin:
  65.  
  66. ============================== Questions ==============================
  67.  
  68. (the short forms and non-continous numbering is intended)
  69. 1.)  What is this newsgroup for ?  How shall it be used ?
  70. 2.)  What is a neural network (NN) ?
  71. 3.)  What can you do with a Neural Network and what not ?
  72. 4.)  Who is concerned with Neural Networks ?
  73.  
  74. 6.)  What does 'backprop' mean ?
  75. 7.)  How many learning methods for NNs exist ?  Which ?
  76. 8.)  What about Genetic Algorithms ?
  77. 9.)  What about Fuzzy Logic ?
  78.  
  79. 10.) Good introductory literature about Neural Networks ?
  80. 11.) Any journals and magazines about Neural Networks ?
  81. 12.) The most important conferences concerned with Neural Networks ?
  82. 13.) Neural Network Associations ?
  83. 14.) Other sources of information about NNs ?
  84.  
  85. 15.) Freely available software packages for NN simulation ?
  86. 16.) Commercial software packages for NN simulation ?
  87. 17.) Neural Network hardware ?
  88.  
  89. 19.) Databases for experimentation with NNs ?
  90.  
  91. ============================== Answers ==============================
  92.  
  93. ------------------------------------------------------------------------
  94.  
  95. -A1.)  What is this newsgroup for ?
  96.  
  97. The newsgroup comp.ai.neural-nets is inteded as a forum for people who want
  98. to use or explore the capabilities of Neural Networks or Neural-Network-like
  99. structures.
  100.  
  101. There should be the following types of articles in this newsgroup:
  102.  
  103. 1. Requests
  104.  
  105.   Requests are articles of the form 
  106.     "I am looking for X"
  107.   where X is something public like a book, an article, a piece of software.
  108.  
  109.   If multiple different answers can be expected, the person making the 
  110.   request should prepare to make a summary of the answers he/she got
  111.   and announce to do so with a phrase like
  112.     "Please email, I'll summarize"
  113.   at the end of the posting.
  114.   
  115.   The Subject line of the posting should then be something like
  116.     "Request: X"
  117.  
  118. 2. Questions
  119.  
  120.   As opposed to requests, questions are concerned with something so specific
  121.   that general interest cannot readily be assumed.
  122.   If the poster thinks that the topic is of some general interest,
  123.   he/she should announce a summary (see above).
  124.  
  125.   The Subject line of the posting should be something like
  126.     "Question: this-and-that"
  127.   or have the form of a question (i.e., end with a question mark)
  128.  
  129. 3. Answers
  130.  
  131.   These are reactions to questions or requests.
  132.   As a rule of thumb articles of type "answer" should be rare.
  133.   Ideally, in most cases either the answer is too specific to be of general 
  134.   interest (and should thus be e-mailed to the poster) or a summary
  135.   was announced with the question or request (and answers should
  136.   thus be e-mailed to the poster).
  137.  
  138.   The subject lines of answers are automatically adjusted by the 
  139.   news software.
  140.  
  141. 4. Summaries
  142.  
  143.   In all cases of requests or questions the answers for which can be assumed
  144.   to be of some general interest, the poster of the request or question 
  145.   shall summarize the ansers he/she received.
  146.   Such a summary should be announced in the original posting of the question
  147.   or request with a phrase like
  148.     "Please answer by email, I'll summarize"
  149.  
  150.   In such a case answers should NOT be posted to the newsgroup but instead
  151.   be mailed to the poster who collects and reviews them.
  152.   After about 10 to 20 days from the original posting, its poster should 
  153.   make the summary of answers and post it to the net.
  154.  
  155.   Some care should be invested into a summary:
  156.   a) simple concatenation of all the answers is not enough;
  157.      instead redundancies, irrelevancies, verbosities and
  158.      errors must be filtered out (as good as possible),
  159.   b) the answers shall be separated clearly
  160.   c) the contributors of the individual answers shall be identifiable
  161.      (unless they requested to remain anonymous [yes, that happens])
  162.   d) the summary shall start with the "quintessence" of the answers,
  163.      as seen by the original poster
  164.   e) A summary should, when posted, clearly be indicated to be one
  165.      by giving it a Subject line starting with "Summary:"
  166.  
  167.   Note that a good summary is pure gold for the rest of the newsgroup
  168.   community, so summary work will be most appreciated by all of us.
  169.   (Good summaries are more valuable than any moderator !  :-> )
  170.  
  171. 5. Announcements
  172.  
  173.   Some articles never need any public reaction.
  174.   These are called announcements (for instance for a workshop,
  175.   conference or the availability of some technical report or
  176.   software system).
  177.  
  178.   Announcements should be clearly indicated to be such by giving
  179.   them a subject line of the form
  180.     "Announcement: this-and-that"
  181.  
  182. 6. Reports
  183.  
  184.   Sometimes people spontaneously want to report something to the
  185.   newsgroup. This might be special experiences with some software,
  186.   results of own experiments or conceptual work, or especially 
  187.   interesting information from somewhere else.
  188.  
  189.   Reports should be clearly indicated to be such by giving
  190.   them a subject line of the form
  191.     "Report: this-and-that"
  192.   
  193. 7. Discussions
  194.  
  195.   An especially valuable possibility of Usenet is of course that of
  196.   discussing a certain topic with hundreds of potential participants.
  197.   All traffic in the newsgroup that can not be subsumed under one of
  198.   the above categories should belong to a discussion.
  199.  
  200.   If somebody explicitly wants to start a discussion, he/she can do so
  201.   by giving the posting a subject line of the form
  202.     "Start discussion: this-and-that"
  203.   (People who react on this, please remove the
  204.    "Start discussion: " label from the subject line of your replies)
  205.  
  206.   It is quite difficult to keep a discussion from drifting into chaos,
  207.   but, unfortunately, as many many other newsgroups show there seems
  208.   to be no secure way to avoid this.
  209.   On the other hand, comp.ai.neural-nets has not had many problems
  210.   with this effect in the past, so let's just go and hope...   :->
  211.  
  212. ------------------------------------------------------------------------
  213.  
  214. -A2.)  What is a neural network (NN) ?
  215.  
  216.   [anybody there to write something better?
  217.    buzzwords: artificial vs. natural/biological; units and
  218.    connections; value passing; inputs and outputs; storage in structure
  219.    and weights; only local information; highly parallel operation ]
  220.  
  221. First of all, when we are talking about a neural network, we *should*
  222. usually better say "artificial neural network" (ANN), because that is
  223. what we mean  most of the time. Biological neural networks are much
  224. more complicated in their elementary structures than the mathematical
  225. models we use for ANNs.
  226.  
  227. A vague description is as follows:
  228.  
  229. An ANN is a network of many very simple processors ("units"), each
  230. possibly having a (small amount of) local memory. The units are
  231. connected by unidirectional communication channels ("connections"),
  232. which carry numeric (as opposed to symbolic) data.  The units operate
  233. only on their local data and on the inputs they receive via the
  234. connections.
  235.  
  236. The design motivation is what distinguishes neural networks from other
  237. mathematical techniques:
  238.  
  239. A neural network is a processing device, either an algorithm, or actual
  240. hardware, whose design was motivated by the design and functioning of human
  241. brains and components thereof.
  242.  
  243. Most neural networks have some sort of "training" rule
  244. whereby the weights of connections are adjusted on the basis of
  245. presented patterns.
  246. In other words, neural networks "learn" from examples,
  247. just like children learn to recognize dogs from examples of dogs,
  248. and exhibit some structural capability for generalization.
  249.  
  250. Neural networks normally have great potential for parallelism, since
  251. the computations of the components are independent of each other.
  252.  
  253. ------------------------------------------------------------------------
  254.  
  255. -A3.)  What can you do with a Neural Network and what not ?
  256.  
  257.   [preliminary]
  258.   
  259. In principle, NNs can compute any computable function, i.e. they can
  260. do everything a normal digital computer can do.
  261. Especially can anything that can be represented as a mapping between
  262. vector spaces be approximated to arbitrary precision by feedforward
  263. NNs (which is the most often used type).
  264.  
  265. In practice, NNs are especially useful for mapping problems
  266. which are tolerant of a high error rate, have lots of example data
  267. available, but to which hard and fast rules can not easily be applied.
  268.  
  269. NNs are especially bad for problems that are concerned with manipulation 
  270. of symbols and for problems that need short-term memory.
  271.  
  272. ------------------------------------------------------------------------
  273.  
  274. -A4.)  Who is concerned with Neural Networks ?
  275.  
  276. Neural Networks are interesting for quite a lot of very dissimilar people:
  277.  
  278. - Computer scientists want to find out about the properties of 
  279.   non-symbolic information processing with neural nets and about learning 
  280.   systems in general.
  281. - Engineers of many kinds want to exploit the capabilities of 
  282.   neural networks on many areas (e.g. signal processing) to solve 
  283.   their application problems.
  284. - Cognitive scientists view neural networks as a possible apparatus to
  285.   describe models of thinking and conscience (High-level brain function).
  286. - Neuro-physiologists use neural networks to describe and explore
  287.   medium-level brain function (e.g. memory, sensory system, motorics).
  288. - Physicists use neural networks to model phenomena in statistical
  289.   mechanics and for a lot of other tasks.
  290. - Biologists use Neural Networks to interpret nucleotide sequences.
  291. - Philosophers and some other people may also be interested in 
  292.   Neural Networks for various reasons.
  293.  
  294. ------------------------------------------------------------------------
  295.  
  296. -A6.)  What does 'backprop' mean ?
  297.  
  298. [anybody to write something similarly short,
  299.  but easier to understand for a beginner ? ]
  300.  
  301. It is an abbreviation for 'backpropagation of error' which is the
  302. most widely used learning method for neural networks today.
  303. Although it has many disadvantages, which could be summarized in the
  304. sentence
  305.   "You are almost not knowing what you are actually doing
  306.    when using backpropagation"  :-)
  307. it has pretty much success on practical applications and is
  308. relatively easy to apply.
  309.  
  310. It is for the training of layered (i.e., nodes are grouped
  311. in layers) feedforward (i.e., the arcs joining nodes are
  312. unidirectional, and there are no cycles) nets.
  313.  
  314. Back-propagation needs a teacher that knows the correct output for any
  315. input ("supervised learning") and uses gradient descent on the error
  316. (as provided by the teacher) to train the weights.  The activation
  317. function is (usually) a sigmoidal (i.e., bounded above and below, but
  318. differentiable) function of a weighted sum of the nodes inputs.
  319.  
  320. The use of a gradient descent algorithm to train its weights makes it
  321. slow to train; but being a feedforward algorithm, it is quite rapid during
  322. the recall phase.
  323.  
  324. Literature:
  325.   Rumelhart, D. E. and McClelland, J. L. (1986): 
  326.   Parallel Distributed Processing: Explorations in the
  327.   Microstructure of Cognition (volume 1, pp 318-362). 
  328.   The MIT Press. 
  329. (this is the classic one) or one of the dozens of other books 
  330. or articles on backpropagation  :->
  331.  
  332. ------------------------------------------------------------------------
  333.  
  334. -A7.)  How many learning methods for NNs exist ?  Which ?
  335.  
  336. There are many many learning methods for NNs by now. Nobody can know 
  337. exactly how many.
  338. New ones (at least variations of existing ones) are invented every
  339. week. Below is a collection of some of the most well known methods;
  340. not claiming to be complete.
  341.  
  342. The main categorization of these methods is the distiction of 
  343. supervised from unsupervised learning:
  344.  
  345. - In supervised learning, there is a "teacher" who in the learning
  346.   phase "tells" the net how well it performs ("reinforcement learning")
  347.   or what the correct behavior would have been ("fully supervised learning").
  348.  
  349. - In unsupervised learning the net is autonomous: it just looks at
  350.   the data it is presented with, finds out about some of the
  351.   properties of the data set and learns to reflect these properties 
  352.   in its output. What exactly these properties are, that the network
  353.   can learn to recognise, depends on the particular network model and
  354.   learning method.
  355.   
  356. Many of these learning methods are closely connected with a certain
  357. (class of) network topology.
  358.  
  359. Now here is the list, just giving some names:
  360.   
  361. 1. UNSUPERVISED LEARNING (i.e. without a "teacher"):
  362.        1). Feedback Nets:
  363.        a). Additive Grossberg (AG)
  364.        b). Shunting Grossberg (SG)
  365.        c). Binary Adaptive Resonance Theory (ART1)
  366.        d). Analog Adaptive Resonance Theory (ART2, ART2a)
  367.        e). Discrete Hopfield (DH)
  368.        f). Continuous Hopfield (CH)
  369.        g). Discrete Bidirectional Associative Memory (BAM)
  370.        h). Temporal Associative Memory (TAM)
  371.        i). Adaptive Bidirectional Associative Memory (ABAM)
  372.            j). Kohonen Self-organizing Map (SOM)
  373.            k). Kohonen Topology-preserving Map (TPM)
  374.        2). Feedforward-only Nets:
  375.        a). Learning Matrix (LM)
  376.        b). Driver-Reinforcement Learning (DR)
  377.        c). Linear Associative Memory (LAM)
  378.        d). Optimal Linear Associative Memory (OLAM)
  379.        e). Sparse Distributed Associative Memory (SDM)
  380.        f). Fuzzy Associative Memory (FAM)
  381.        g). Counterprogation (CPN)
  382.  
  383. 2. SUPERVISED LEARNING (i.e. with a "teacher"):
  384.        1). Feedback Nets:
  385.        a). Brain-State-in-a-Box (BSB)
  386.        b). Fuzzy Congitive Map (FCM)
  387.        c). Boltzmann Machine (BM)
  388.            d). Mean Field Annealing (MFT)
  389.            e). Recurrent Cascade Correlation (RCC)
  390.        f). Learning Vector Quantization (LVQ)
  391.        2). Feedforward-only Nets:
  392.        a). Perceptron
  393.        b). Adaline, Madaline
  394.        c). Backpropagation (BP)
  395.        d). Cauchy Machine (CM)
  396.        e). Adaptive Heuristic Critic (AHC)
  397.            f). Time Delay Neural Network (TDNN)
  398.        g). Associative Reward Penalty (ARP)
  399.        h). Avalanche Matched Filter (AMF)
  400.            i). Backpercolation (Perc)
  401.            j). Artmap
  402.            k). Adaptive Logic Network (ALN)
  403.            l). Cascade Correlation (CasCor)
  404.  
  405. ------------------------------------------------------------------------
  406.  
  407. -A8.)  What about Genetic Algorithms ?
  408.  
  409. [preliminary]
  410. [Who will write a better introduction?]
  411.  
  412. There are a number of definitions of GA (Genetic Algorithm).
  413. A possible one is
  414.  
  415.   A GA is an optimization program 
  416.   that starts with some encoded procedure,  (Creation of Life :-> )
  417.   mutates it stochastically,                (Get cancer or so :-> )
  418.   and uses a selection process              (Darwinism)
  419.   to prefer the mutants with high fitness
  420.   and perhaps a recombination process       (Make babies :-> )
  421.   to combine properties of (preferably) the succesful mutants.
  422.  
  423. There is a newsgroup that is dedicated to Genetic Algorithms 
  424. called comp.ai.genetic.
  425. Some GA discussion also tends to happen in comp.ai.neural-nets.
  426. Another loosely relevant group is comp.theory.self-org-sys.
  427. There is a GA mailing list which you can subscribe to by
  428. sending a request to GA-List-Request@AIC.NRL.NAVY.MIL
  429. You can also try anonymous ftp to
  430.   ftp.aic.nrl.navy.mil
  431. in the /pub/galist directory. There are papers and some software.
  432.  
  433. For more details see (for example):
  434.  
  435. "Genetic Algorithms in Search Optimisation and Machine Learning"
  436. by David Goldberg (Addison-Wesley 1989, 0-201-15767-5) or 
  437.  
  438. "Handbook of Genetic Algorithms"
  439. edited by Lawrence Davis (Van Nostrand Reinhold 1991 0-442-00173-8) or
  440.  
  441. "Classifier Systems and Genetic Algorithms"
  442. L.B. Booker, D.E. Goldberg and J.H. Holland, Techreport No. 8 (April 87),
  443. Cognitive Science and Machine Intelligence Laboratory, University of Michigan
  444.   also reprinted in :
  445. Artificial Intelligence, Volume 40 (1989), pages 185-234
  446.  
  447. ------------------------------------------------------------------------
  448.  
  449. -A9.)  What about Fuzzy Logic ?
  450.  
  451. [preliminary]
  452. [Who will write an introduction?]
  453.  
  454. Fuzzy Logic is an area of research based on the work of L.A. Zadeh.
  455. It is a departure from classical two-valued sets and logic, that uses
  456. "soft" linguistic (e.g. large, hot, tall) system variables and a
  457. continuous range of truth values in the interval [0,1], rather than
  458. strict binary (True or False) decisions and assignments.
  459. Fuzzy logic is used where a system is difficult to model, is
  460. controlled by a human operator or expert, or where ambiguity or
  461. vagueness is common.  A typical fuzzy system consists of a rule base,
  462. membership functions, and an inference procedure.
  463.  
  464. Most Fuzzy Logic discussion takes place in the newsgroup comp.ai.fuzzy,
  465. but there is also some work (and discussion) about combining fuzzy
  466. logic with Neural Network approaches in comp.ai.neural-nets.
  467.  
  468. For more details see (for example):
  469.  
  470. Klir, G.J. and Folger, T.A., Fuzzy Sets, Uncertainty, and 
  471. Information, Prentice-Hall, Englewood 
  472. Cliffs, N.J., 1988.
  473.  
  474. Kosko, B., Neural Networks and Fuzzy Systems, Prentice Hall, 
  475. Englewood Cliffs, NJ, 1992.
  476.  
  477. ------------------------------------------------------------------------
  478.  
  479. -A10.) Good introductory literature about Neural Networks ?
  480.  
  481. 0.) The best (subjectively, of course -- please don't flame me):
  482.  
  483. Hecht-Nielsen, R. (1990). Neurocomputing. Addison Wesley.
  484. Comments: "A good book", "comprises a nice historical overview and a chapter
  485. about NN hardware. Well structured prose. Makes important concepts clear."
  486.  
  487. Hertz, J., Krogh, A., and Palmer, R. (1991). Introduction to the Theory of 
  488. Neural Computation. Addison-Wesley: Redwood City, California.
  489. ISBN 0-201-50395-6 (hardbound) and 0-201-51560-1 (paperbound)
  490. Comments: "My first impression is that this one is by far the best book on 
  491. the topic. And it's below $30 for the paperback."; "Well written, theoretical
  492. (but not overwhelming)"; It provides a good balance of model development, 
  493. computational algorithms, and applications. The mathematical derivations 
  494. are especially well done"; "Nice mathematical analysis on the mechanism of 
  495. different learning algorithms"; "It is NOT for mathematical beginner.
  496. If you don't have a good grasp of higher level math, this book can
  497. be really tough to get through."
  498.  
  499.  
  500. 1.) Books for the beginner:
  501.  
  502. Aleksander, I. and Morton, H. (1990). An Introduction to Neural Computing.
  503. Chapman and Hall. (ISBN 0-412-37780-2).
  504. Comments: "This book seems to be intended for the first year of university 
  505. education."
  506.  
  507. Beale, R. and Jackson, T. (1990). Neural Computing, an Introduction.
  508. Adam Hilger, IOP Publishing Ltd : Bristol. (ISBN 0-85274-262-2).
  509. Comments: "It's clearly written.  Lots of hints as to how to get the
  510. adaptive models covered to work (not always well explained in the
  511. original sources).  Consistent mathematical terminology.  Covers
  512. perceptrons, error-backpropagation, Kohonen self-org model, Hopfield
  513. type models, ART, and associative memories."
  514.  
  515. Dayhoff, J. E. (1990). Neural Network Architectures: An Introduction.
  516. Van Nostrand Reinhold: New York.
  517. Comments: "Like Wasserman's book, Dayhoff's book is also very easy to 
  518. understand".
  519.  
  520. McClelland, J. L. and Rumelhart, D. E. (1988).
  521. Explorations in Parallel Distributed Processing: Computational Models of 
  522. Cognition and Perception (software manual). The MIT Press.
  523. Comments: "Written in a tutorial style, and includes 2 diskettes of NN 
  524. simulation programs that can be compiled on MS-DOS or Unix (and they do 
  525. too !)"; "The programs are pretty reasonable as an introduction to some 
  526. of the things that NNs can do."; "There are *two* editions of this book.  
  527. One comes with disks for the IBM PC, the other comes with disks for the 
  528. Macintosh".
  529.  
  530. McCord Nelson, M. and Illingworth, W.T. (1990). A Practical Guide to Neural 
  531. Nets. Addison-Wesley Publishing Company, Inc. (ISBN 0-201-52376-0).
  532. Comments: "No formulas at all( ==> no good)"; "It does not have much 
  533. detailed model development (very few equations), but it does present many 
  534. areas of application.  It includes a chapter on current areas of research. 
  535. A variety of commercial applications is discussed in chapter 1.  It also 
  536. includes a program diskette with a fancy graphical interface (unlike the 
  537. PDP diskette)".
  538.  
  539. Orchard, G.A. & Phillips, W.A. (1991). Neural Computation: A
  540. Beginner's Guide. Lawrence Earlbaum Associates: London.
  541. Comments: "Short user-friendly introduction to the area, with a 
  542. non-technical flavour. Apparently accompanies a software package, but I 
  543. haven't seen that yet".
  544.  
  545. Wasserman, P. D. (1989). Neural Computing: Theory & Practice.
  546. Van Nostrand Reinhold: New York. (ISBN 0-442-20743-3)
  547. Comments: "Wasserman flatly enumerates some common architectures from an 
  548. engineer's perspective ('how it works') without ever addressing the underlying 
  549. fundamentals ('why it works') - important basic concepts such as clustering, 
  550. principal components or gradient descent are not treated.  It's also full of 
  551. errors, and unhelpful diagrams drawn with what appears to be PCB board layout 
  552. software from the '70s. For anyone who wants to do active research in the 
  553. field I consider it quite inadequate"; "Okay, but too shallow"; "Quite
  554. easy to understand";
  555. "The best bedtime reading for Neural Networks.  I have given
  556. this book to numerous collegues who want to know NN basics, but who never
  557. plan to implement anything.  An excellent book to give your manager."
  558.  
  559.  
  560. 2.) The classics:
  561.  
  562. Kohonen, T. (1984). Self-organization and Associative Memory. Springer-Verlag:
  563. New York. (2nd Edition: 1988; 3rd edition: 1989). 
  564. Comments: "The section on Pattern mathematics is excellent."
  565.  
  566. Rumelhart, D. E. and McClelland, J. L. (1986). Parallel Distributed 
  567. Processing: Explorations in the Microstructure of Cognition (volumes 1 & 2). 
  568. The MIT Press. 
  569. Comments: "As a computer scientist I found the two Rumelhart and McClelland 
  570. books really heavy going and definitely not the sort of thing to read if you 
  571. are a beginner."; "It's quite readable, and affordable (about $65 for both 
  572. volumes)."; "THE Connectionist bible.".
  573.  
  574.  
  575. 3.) Introductory journal articles:
  576.  
  577. Hinton, G. E. (1989). Connectionist learning procedures.
  578. Artificial Intelligence, Vol. 40, pp. 185--234.
  579. Comments: "One of the better neural networks overview papers, although the
  580. distinction between network topology and learning algorithm is not always
  581. very clear.  Could very well be used as an introduction to neural networks."
  582.  
  583. Knight, K. (1990). Connectionist, Ideas and Algorithms. Communications of 
  584. the ACM. November 1990. Vol.33 nr.11, pp 59-74.
  585. Comments:"A good article, while it is for most people easy to find a copy of
  586. this journal."
  587.  
  588. Kohonen, T. (1988). An Introduction to Neural Computing. Neural Networks,
  589. vol. 1, no. 1. pp. 3-16.
  590. Comments: "A general review".
  591.  
  592.  
  593. 4.) Not-quite-so-introductory literature:
  594.  
  595. Anderson, J. A. and Rosenfeld, E. (Eds). (1988). Neurocomputing: 
  596. Foundations of Research. The MIT Press: Cambridge, MA.
  597. Comments: "An expensive book, but excellent for reference. It is a 
  598. collection of reprints of most of the major papers in the field."; 
  599.  
  600. Anderson, J. A., Pellionisz, A. and Rosenfeld, E. (Eds). (1990).
  601. Neurocomputing 2: Directions for Research. The MIT Press: Cambridge, MA.
  602. Comments: "The sequel to their well-known Neurocomputing book."
  603.  
  604. Caudill, M. and Butler, C. (1990). Naturally Intelligent Systems.
  605. MIT Press: Cambridge, Massachusetts. (ISBN 0-262-03156-6).
  606. Comments: "I guess one of the best books I read"; "May not be suited for 
  607. people who want to do some research in the area".
  608.  
  609. Khanna, T. (1990). Foundations of Neural Networks. Addison-Wesley: New York.
  610. Comments: "Not so bad (with a page of erroneous formulas (if I remember 
  611. well), and #hidden layers isn't well described)."; "Khanna's intention
  612. in writing his book with math analysis should be commended but he
  613. made several mistakes in the math part".
  614.  
  615. Levine, D. S. (1990). Introduction to Neural and Cognitive Modeling.
  616. Lawrence Erlbaum: Hillsdale, N.J.
  617. Comments: "Highly recommended".
  618.  
  619. Lippmann, R. P. (April 1987). An introduction to computing with neural nets.
  620. IEEE Acoustics, Speech, and Signal Processing Magazine. vol. 2,
  621. no. 4, pp 4-22.
  622. Comments: "Much acclaimed as an overview of neural networks, but rather 
  623. inaccurate on several points.  The categorization into binary and continuous-
  624. valued input neural networks is rather arbitrary, and may work confusing for
  625. the unexperienced reader.  Not all networks discussed are of equal importance."
  626.  
  627. Maren, A., Harston, C. and Pap, R., (1990). Handbook of Neural Computing 
  628. Applications.  Academic Press. ISBN: 0-12-471260-6. (451 pages)
  629. Comments: "They cover a broad area"; "Introductory with suggested
  630. applications implementation".
  631.  
  632. Pao, Y. H. (1989). Adaptive Pattern Recognition and Neural Networks
  633. Addison-Wesley Publishing Company, Inc. (ISBN 0-201-12584-6)
  634. Comments: "An excellent book that ties together classical approaches
  635. to pattern recognition with Neural Nets.  Most other NN books do not
  636. even mention conventional approaches."
  637.  
  638. Rumelhart, D. E., Hinton, G. E. and Williams, R. J. (1986). Learning
  639. representations by back-propagating errors. Nature, vol 323 (9 October),
  640. pp. 533-536.
  641. Comments: "Gives a very good potted explanation of backprop NN's. It gives 
  642. sufficient detail to write your own NN simulation."
  643.  
  644. Simpson, P. K. (1990). Artificial Neural Systems: Foundations, Paradigms,
  645. Applications and Implementations. Pergamon Press: New York.
  646. Comments: "Contains a very useful 37 page bibliography. A large number of
  647. paradigms are presented. On the negative side the book is very shallow. 
  648. Best used as a complement to other books".
  649.  
  650. Zeidenberg. M. (1990). Neural Networks in Artificial Intelligence.
  651. Ellis Horwood, Ltd., Chichester.
  652. Comments: "Gives the AI point of view".
  653.  
  654. Zornetzer, S. F., Davis, J. L. and Lau, C. (1990). An Introduction to 
  655. Neural and Electronic Networks. Academic Press. (ISBN 0-12-781881-2)
  656. Comments: "Covers quite a broad range of topics (collection of 
  657. articles/papers )."; "Provides a primer-like introduction and overview for
  658. a broad audience, and employs a strong interdisciplinary emphasis".
  659.  
  660. ------------------------------------------------------------------------
  661.  
  662. -A11.) Any journals and magazines about Neural Networks ?
  663.  
  664.  
  665. [to be added: comments on speed of reviewing and publishing,
  666.               whether they accept TeX format or ASCII by e-mail, etc.]
  667.  
  668. A. Dedicated Neural Network Journals:
  669. =====================================
  670.  
  671. Title:      Neural Networks
  672. Publish: Pergamon Press
  673. Address: Pergamon Journals Inc., Fairview Park, Elmsford, 
  674.      New York 10523, USA and Pergamon Journals Ltd.
  675.      Headington Hill Hall, Oxford OX3, 0BW, England
  676. Freq.:      6 issues/year (vol. 1 in 1988)
  677. Cost/Yr: Free with INNS membership ($45?), Individual $65, Institution $175
  678. ISSN #:     0893-6080
  679. Remark:  Official Journal of International Neural Network Society (INNS).
  680.      Contains Original Contributions, Invited Review Articles, Letters
  681.      to Editor, Invited Book Reviews, Editorials, Announcements and INNS
  682.      News, Software Surveys.  This is probably the most popular NN journal.
  683.      (Note: Remarks supplied by Mike Plonski "plonski@aero.org")
  684. -------
  685. Title:     Neural Computation
  686. Publish: MIT Press 
  687. Address: MIT Press Journals, 55 Hayward Street Cambridge, 
  688.      MA 02142-9949, USA, Phone: (617) 253-2889
  689. Freq.:     Quarterly (vol. 1 in 1989)
  690. Cost/Yr: Individual $45, Institution $90, Students $35; Add $9 Outside USA
  691. ISSN #:     0899-7667
  692. Remark:  Combination of Reviews (10,000 words), Views (4,000 words)
  693.      and Letters (2,000 words).  I have found this journal to be of
  694.      outstanding quality.
  695.      (Note: Remarks supplied by Mike Plonski "plonski@aero.org")
  696. -----
  697. Title:      IEEE Transaction on Neural Networks
  698. Publish: Institute of Electrical and Electronics Engineers (IEEE)
  699. Address: IEEE Service Cemter, 445 Hoes Lane, P.O. Box 1331, Piscataway, NJ,
  700.      08855-1331 USA. Tel: (201) 981-0060
  701. Cost/Yr: $10 for Members belonging to participating IEEE societies
  702. Freq.:   Quarterly (vol. 1 in March 1990)
  703. Remark:     Devoted to the science and technology of neural networks
  704.      which disclose significant  technical knowledge, exploratory
  705.      developments and applications of neural networks from biology to
  706.      software to hardware.  Emphasis is on artificial neural networks.
  707.      Specific aspects include self organizing systems, neurobiological
  708.      connections, network dynamics and architecture, speech recognition,
  709.      electronic and photonic implementation, robotics and controls.
  710.      Includes Letters concerning new research results.
  711.      (Note: Remarks are from journal announcement)
  712. -----
  713. Title:     International Journal of Neural Systems
  714. Publish: World Scientific Publishing
  715. Address: USA: World Scientific Publishing Co., 687 Hartwell Street, Teaneck, 
  716.      NJ 07666. Tel: (201) 837-8858; Eurpoe: World Scientific Publishing 
  717.      Co. Pte. Ltd., 73 Lynton Mead, Totteridge, London N20-8DH, England. 
  718.      Tel: (01) 4462461; Other: World Scientific Publishing Co. Pte. Ltd.,
  719.      Farrer Road, P.O. Box 128, Singapore 9128. Tel: 2786188
  720. Freq.:     Quarterly (Vol. 1 in 1990?)
  721. Cost/Yr: Individual $42, Institution $88 (plus $9-$17 for postage)
  722. ISSN #:     0129-0657 (IJNS)
  723. Remark:  The International Journal of Neural Systems is a quarterly journal
  724.      which covers information processing in natural and artificial neural
  725.      systems. It publishes original contributions on all aspects of this
  726.      broad subject which involves physics, biology, psychology, computer
  727.      science and engineering. Contributions include research papers, 
  728.      reviews and short communications.  The journal presents a fresh 
  729.      undogmatic attitude towards this multidisciplinary field with the
  730.      aim to be a forum for novel ideas and improved understanding of 
  731.      collective and cooperative phenomena with computational capabilities.
  732.      (Note: Remarks supplied by B. Lautrup (editor),
  733.      "LAUTRUP%nbivax.nbi.dk@CUNYVM.CUNY.EDU" )
  734.          Review is reported to be very slow.
  735. ------
  736. Title:     Neural Network News
  737. Publish: AIWeek Inc.
  738. Address: Neural Network News, 2555 Cumberland Parkway, Suite 299, Atlanta, GA
  739.      30339 USA. Tel: (404) 434-2187
  740. Freq.:     Monthly (beginning September 1989)
  741. Cost/Yr: USA and Canada $249, Elsewhere $299
  742. Remark:     Commericial Newsletter
  743. ------
  744. Title:   Network: Computation in Neural Systems
  745. Publish: IOP Publishing Ltd
  746. Address: Europe: IOP Publishing Ltd, Techno House, Redcliffe Way, Bristol 
  747.      BS1 6NX, UK; IN USA: American Institute of Physics, Subscriber
  748.      Services 500 Sunnyside Blvd., Woodbury, NY  11797-2999
  749. Freq.:     Quarterly (1st issue 1990)
  750. Cost/Yr: USA: $180,  Europe: 110 pounds
  751. Remark:     Description: "a forum for integrating theoretical and experimental
  752.      findings across relevant interdisciplinary boundaries."  Contents:
  753.      Submitted articles reviewed by two technical referees  paper's 
  754.      interdisciplinary format and accessability."  Also Viewpoints and 
  755.      Reviews commissioned by the editors, abstracts (with reviews) of
  756.      articles published in other journals, and book reviews.
  757.      Comment: While the price discourages me (my comments are based upon
  758.      a free sample copy), I think that the journal succeeds very well.  The
  759.      highest density of interesting articles I have found in any journal. 
  760.      (Note: Remarks supplied by brandt kehoe "kehoe@csufres.CSUFresno.EDU")
  761. ------
  762. Title:   Connection Science: Journal of Neural Computing, 
  763.      Artificial Intelligence and Cognitive Research
  764. Publish: Carfax Publishing
  765. Address: Europe: Carfax Publishing Company, P. O. Box 25, Abingdon, 
  766.      Oxfordshire  OX14 3UE, UK.  USA: Carafax Publishing Company,
  767.      85 Ash Street, Hopkinton, MA 01748
  768. Freq.:   Quarterly (vol. 1 in 1989)
  769. Cost/Yr: Individual $82, Institution $184, Institution (U.K.) 74 pounds
  770. -----
  771. Title:      International Journal of Neural Networks
  772. Publish: Learned Information
  773. Freq.:      Quarterly (vol. 1 in 1989)
  774. Cost/Yr: 90 pounds
  775. ISSN #:     0954-9889
  776. Remark:  The journal contains articles, a conference report (at least the 
  777.      issue I have), news and a calendar.
  778.      (Note: remark provided by J.R.M. Smits "anjos@sci.kun.nl")
  779. -----
  780. Title:      Concepts in NeuroScience
  781. Publish: World Scientific Publishing
  782. Address: Same Address (?) as for International Journal of Neural Systems
  783. Freq.:      Twice per year (vol. 1 in 1989)
  784. Remark:     Mainly Review Articles(?)
  785.      (Note: remarks by Osamu Saito "saito@nttica.NTT.JP")
  786. -----
  787. Title:      International Journal of Neurocomputing
  788. Publish: ecn Neurocomputing GmbH
  789. Freq.:      Quarterly (vol. 1 in 1989)
  790. Remark:  Commercial journal, not the academic periodicals
  791.      (Note: remarks by Osamu Saito "saito@nttica.NTT.JP")
  792.          Review has been reported to be fast (less than 3 months)
  793. -----
  794. Title:     Neurocomputers
  795. Publish: Gallifrey Publishing
  796. Address: Gallifrey Publishing, PO Box 155, Vicksburg, Michigan, 49097, USA
  797.      Tel: (616) 649-3772
  798. Freq.     Monthly (1st issue 1987?)
  799. ISSN #:     0893-1585
  800. Editor:     Derek F. Stubbs
  801. Cost/Yr: $32 (USA, Canada), $48 (elsewhere)
  802. Remark:     I only have one exemplar so I cannot give you much detail about
  803.          the contents. It is a very small one (12 pages) but it has a lot
  804.          of (short) information in it about e.g. conferences, books,
  805.          (new) ideas etc.  I don't think it is very expensive but I'm not sure.
  806.      (Note: remark provided by J.R.M. Smits "anjos@sci.kun.nl")
  807. ------
  808. Title:   JNNS Newsletter (Newsletter of the Japan Neural Network Society)
  809. Publish: The Japan Neural Network Society
  810. Freq.:   Quarterly (vol. 1 in 1989)
  811. Remark:  (IN JAPANESE LANGUAGE) Official Newsletter of the Japan Neural 
  812.      Network Society(JNNS)
  813.      (Note: remarks by Osamu Saito "saito@nttica.NTT.JP")
  814. -------
  815. Title:     Neural Networks Today
  816. Remark:     I found this title in a bulletin board of october last year.
  817.          It was a message of Tim Pattison, timpatt@augean.OZ
  818.      (Note: remark provided by J.R.M. Smits "anjos@sci.kun.nl")
  819. -----
  820. Title:     Computer Simulations in Brain Science
  821. -----
  822. Title:   Internation Journal of Neuroscience
  823. -----
  824. Title:   Neural Network Computation 
  825. Remark:     Possibly the same as "Neural Computation"
  826. -----
  827. Title:   Neural Computing and Applications
  828. Freq.:   Quarterly
  829. Publish: Springer Verlag
  830. Cost/yr: 120 Pounds
  831. Remark:  Is the journal of the Neural Computing Applications Forum.
  832.          Publishes original research and other information
  833.          in the field of practical applications of neural computing.
  834.  
  835. B. NN Related Journals
  836. ======================
  837.  
  838. Title:      Complex Systems
  839. Publish: Complex Systems Publications
  840. Address: Complex Systems Publications, Inc., P.O. Box 6149, Champaign,
  841.      IL 61821-8149, USA
  842. Freq.:     6 times per year (1st volume is 1987)
  843. ISSN #:     0891-2513
  844. Cost/Yr: Individual $75, Institution $225
  845. Remark:  Journal COMPLEX SYSTEMS  devotes to the rapid publication of research
  846.      on the science, mathematics, and engineering of systems with simple
  847.      components but complex overall behavior. Send mail to 
  848.      "jcs@complex.ccsr.uiuc.edu" for additional info.
  849.      (Remark is from announcement on Net)
  850. -----
  851. Title:      Biological Cybernetics (Kybernetik)
  852. Publish: Springer Verlag
  853. Remark:  Monthly (vol. 1 in 1961)
  854. -----
  855. Title:      Various IEEE Transactions and Magazines
  856. Publish: IEEE
  857. Remark:  Primarily see IEEE Trans. on System, Man and Cybernetics; Various
  858.      Special Issues: April 1990 IEEE Control Systems Magazine.; May 1989
  859.      IEEE Trans. Circuits and Systems.; July 1988 IEEE Trans. Acoust. 
  860.      Speech Signal Process.
  861. -----
  862. Title:   The Journal of Experimental and Theoretical Artificial Intelligence
  863. Publish: Taylor & Francis, Ltd.
  864. Address: London, New York, Philadelphia
  865. Freq.:     ? (1st issue Jan 1989)
  866. Remark:     For submission information, please contact either of the editors:
  867.      Eric Dietrich                           Chris Fields
  868.      PACSS - Department of Philosophy        Box 30001/3CRL
  869.      SUNY Binghamton                         New Mexico State University
  870.      Binghamton, NY 13901                    Las Cruces, NM 88003-0001
  871.      dietrich@bingvaxu.cc.binghamton.edu     cfields@nmsu.edu
  872. -----
  873. Title:     The Behavioral and Brain Sciences
  874. Publish: Cambridge University Press
  875. Remark:     (Expensive as hell, I'm sure.)
  876.      This is a delightful journal that encourages discussion on a
  877.      variety of controversial topics.  I have especially enjoyed reading
  878.      some papers in there by Dana Ballard and Stephen Grossberg (separate
  879.      papers, not collaborations) a few years back.  They have a really neat
  880.      concept:  they get a paper, then invite a number of noted scientists
  881.      in the field to praise it or trash it.  They print these commentaries,
  882.      and give the author(s) a chance to make a rebuttal or concurrence.
  883.      Sometimes, as I'm sure you can imagine, things get pretty lively.  I'm
  884.      reasonably sure they are still at it--I think I saw them make a call
  885.      for reviewers a few months ago.  Their reviewers are called something
  886.      like Behavioral and Brain Associates, and I believe they have to be
  887.      nominated by current associates, and should be fairly well established
  888.      in the field.  That's probably more than I really know about it but
  889.      maybe if you post it someone who knows more about it will correct any
  890.      errors I have made.  The main thing is that I liked the articles I
  891.      read. (Note: remarks by Don Wunsch <dwunsch@blake.acs.washington.edu>)
  892. -----
  893. Title:      International Journal of Applied Intelligence
  894. Publish: Kluwer Academic Publishers
  895. Remark:  first issue in 1990(?)
  896. -----
  897. Title:      Bulletin of Mathematica Biology
  898. -----
  899. Title:   Intelligence
  900. -----
  901. Title:      Journal of Mathematical Biology
  902. -----
  903. Title:      Journal of Complex System
  904. -----
  905. Title:   AI Expert
  906. Publish: Miller Freeman Publishing Co., for subscription call ++415-267-7672.
  907. Remark:  Regularly includes ANN related articles, product
  908.          announcements, and application reports.
  909.          Listings of ANN programs are available on AI Expert affiliated BBS's
  910. -----
  911. Title:   International Journal of Modern Physics C
  912. Publish: World Scientific Publ. Co.
  913.          Farrer Rd. P.O.Box 128, Singapore 9128
  914.          or: 687 Hartwell St., Teaneck, N.J. 07666 U.S.A
  915.          or: 73 Lynton Mead, Totteridge, London N20 8DH, England
  916. Freq:    published quarterly
  917. Eds:     G. Fox, H. Herrmann and K. Kaneko
  918. -----
  919. Title:   Machine Learning
  920. Publish: Kluwer Academic Publishers
  921. Address: Kluwer Academic Publishers
  922.          P.O. Box 358
  923.          Accord Station
  924.          Hingham, MA 02018-0358 USA
  925. Freq.:     Monthly (8 issues per year; increasing to 12 in 1993)
  926. Cost/Yr: Individual $140 (1992); Member of AAAI or CSCSI $88
  927. Remark:     Description: Machine Learning is an international forum for 
  928.          research on computational approaches to learning.  The journal
  929.      publishes articles reporting substantive research results on a
  930.          wide range of learning methods applied to a variety of task
  931.          domains.  The ideal paper will make a theoretical contribution
  932.          supported by a computer implementation.
  933.          The journal has published many key papers in learning theory,
  934.          reinforcement learning, and decision tree methods.  Recently
  935.          it has published a special issue on connectionist approaches
  936.          to symbolic reasoning.  The journal regularly publishes
  937.          issues devoted to genetic algorithms as well.
  938. -----
  939. Title:   Journal of Physics A: Mathematical and General
  940. Publish: Inst. of Physics, Bristol
  941. Freq:    24 issues per year.
  942. Remark:  Statistical mechanics aspects of neural networks 
  943.          (mostly Hopfield models).
  944.  
  945. -----
  946. Title:   Physical Review A: Atomic, Molecular and Optical Physics
  947. Publish: The American Physical Society (Am. Inst. of Physics)
  948. Freq:    Monthly
  949. Remark:  Statistical mechanics of neural networks.
  950.  
  951.  
  952. C. Journals loosely related to NNs
  953. ==================================
  954.  
  955. JOURNAL OF COMPLEXITY
  956. (Must rank alongside Wolfram's Complex Systems)
  957.  
  958. IEEE ASSP Magazine
  959. (April 1987 had the Lippmann intro. which everyone likes to cite)
  960.  
  961. ARTIFICIAL INTELLIGENCE
  962. (Vol 40, September 1989 had the survey paper by Hinton)
  963.  
  964. COGNITIVE SCIENCE
  965. (the Boltzmann machine paper by Ackley et al appeared here in Vol 9, 1983)
  966.  
  967. COGNITION
  968. (Vol 28, March 1988 contained the Fodor and Pylyshyn critique of connectionism)
  969.  
  970. COGNITIVE PSYCHOLOGY
  971. (no comment!)
  972.  
  973. JOURNAL OF MATHEMATICAL PSYCHOLOGY
  974. (several good book reviews)
  975.  
  976. ------------------------------------------------------------------------
  977.  
  978. -A12.) The most important conferences concerned with Neural Networks ?
  979.  
  980. [preliminary]
  981. [to be added: has taken place how often yet; most emphasized topics;
  982.  where to get proceedings ]
  983.  
  984. A. Dedicated Neural Network Conferences:
  985.    1. Neural Information Processing Systems (NIPS)
  986.       Annually in Denver, Colorado; late November or early December
  987.    2. International Joint Conference on Neural Networks (IJCNN)
  988.       co-sponsored by INNS and IEEE
  989.    3. Annual Conference on Neural Networks (ACNN)
  990.    4. International Conference on Artificial Neural Networks (ICANN)
  991.       Annually in Europe(?), 1992 in Brighton
  992.       Major conference of European Neur. Netw. Soc. (ENNS)
  993.  
  994. B. Other Conferences
  995.    1. International Joint Conference on Artificial Intelligence (IJCAI)
  996.    2. Intern. Conf. on Acustics, Speech and Signal Processing (ICASSP)
  997.    3. Annual Conference of the Cognitive Science Society
  998.    4. [Vision Conferences?]
  999.  
  1000. C. Pointers to Conferences
  1001.    1. The journal "Neural Networks" has a long list of conferences, 
  1002.       workshops and meetings in each issue. 
  1003.       This is quite interdisciplinary.
  1004.    2. There is a regular posting on comp.ai.neural-nets from Paultje Bakker:
  1005.       "Upcoming Neural Network Conferences", which lists names, dates,
  1006.       locations, contacts, and deadlines.
  1007.  
  1008. ------------------------------------------------------------------------
  1009.  
  1010. -A13.) Neural Network Associations ?
  1011.  
  1012. [Is this data still correct ?  Who will send me some update ?]
  1013.  
  1014. 1. International Neural Network Society (INNS).
  1015.    INNS membership includes subscription to "Neural Networks",
  1016.    the official journal of the society.
  1017.    Membership is $55 for non-students and $45 for students per year.
  1018.    Address: INNS Membership, P.O. Box 491166, Ft. Washington, MD 20749.
  1019.  
  1020. 2. International Student Society for Neural Networks (ISSNNets).
  1021.    Membership is $5 per year.
  1022.    Address:  ISSNNet, Inc., P.O. Box 15661, Boston, MA 02215  USA
  1023.  
  1024. 3. Women In Neural Network Research and technology (WINNERS).
  1025.    Address: WINNERS, c/o Judith Dayhoff, 11141 Georgia Ave., Suite 206, 
  1026.             Wheaton, MD 20902.  Telephone: 301-933-9000.
  1027.  
  1028. 4. European Neural Network Society (ENNS)
  1029.  
  1030. 5. Japanese Neural Network Society (JNNS)
  1031.    Address: Japanese Neural Network Society
  1032.         Department of Engineering, Tamagawa University,
  1033.         6-1-1, Tamagawa Gakuen, Machida City, Tokyo,
  1034.         194 JAPAN
  1035.         Phone: +81 427 28 3457,    Fax: +81 427 28 3597
  1036.  
  1037. 6. Association des Connexionnistes en THese (ACTH)
  1038.    (the French Student Association for Neural Networks)
  1039.    Membership is 100 FF per year
  1040.    Activities : newsletter, conference (every year), list of members...
  1041.    Address : ACTH - Le Castelnau R2
  1042.              23 avenue de la Galline
  1043.              34170 Castelnau-le-Lez
  1044.              FRANCE
  1045.    Contact : jdmuller@vnet.ibm.com
  1046.  
  1047. 7. Neurosciences et Sciences de l'Ingenieur (NSI)
  1048.    Biology & Computer Science
  1049.    Activity : conference (every year)
  1050.    Address : NSI - TIRF / INPG
  1051.              46 avenue Felix Viallet
  1052.              38031 Grenoble Cedex
  1053.              FRANCE
  1054.  
  1055.  
  1056. ------------------------------------------------------------------------
  1057.  
  1058. -A14.) Other sources of information about NNs ?
  1059.  
  1060. 1. Neuron Digest
  1061.    Internet Mailing List.  From the welcome blurb:
  1062.      "Neuron-Digest is a list (in digest form) dealing with all aspects
  1063.       of neural networks (and any type of network or neuromorphic system)"
  1064.    Moderated by Peter Marvit.
  1065.    To subscribe, send email to neuron-request@cattell.psych.upenn.edu
  1066.    comp.ai.neural-net readers also find the messages in that newsgroup
  1067.    in the form of digests.
  1068.  
  1069. 2. Usenet groups comp.ai.neural-nets (Oha !  :-> )
  1070.              and comp.theory.self-org-sys
  1071.    There is a periodic posting on comp.ai.neural-nets sent by
  1072.    srctran@world.std.com (Gregory Aharonian) about Neural Network 
  1073.    patents.
  1074.  
  1075. 3. Central Neural System Electronic Bulletin Board
  1076.    Modem: 509-627-6CNS; Sysop: Wesley R. Elsberry;
  1077.    P.O. Box 1187, Richland, WA 99352; welsberr@sandbox.kenn.wa.us
  1078.    Available thrugh FidoNet, RBBS-Net, and other EchoMail compatible
  1079.    bulletin board systems as NEURAL_NET echo.
  1080.  
  1081. 4. Neural ftp archive site  funic.funet.fi
  1082.    Is administrating a large collection of neural network papers and
  1083.    software at the Finnish University Network file archive site
  1084.    funic.funet.fi  in directory  /pub/sci/neural
  1085.    Contains all the public domain software and papers that they
  1086.    have been able to find.
  1087.    ALL of these files have been transferred from FTP sites in U.S.
  1088.    and are mirrored about every 3 months at fastest.
  1089.    Contact:     magi@funic.funet.fi    or
  1090.                 magi@utu.fi        (my home university address)
  1091.  
  1092. 5. USENET newsgroup comp.org.issnnet
  1093.    Forum for discussion of academic/student-related issues in NNs, as
  1094.    well as information on ISSNNet (see A13) and its activities.
  1095.  
  1096. ------------------------------------------------------------------------
  1097.  
  1098. -A15.) Freely available software packages for NN simulation ?
  1099.  
  1100.  
  1101. [This is a bit chaotic and needs reorganization.
  1102.  A bit more information about what the various programs can do,
  1103.  on which platform they run, and how big they are would also be nice.
  1104.  And some important packages are still missing (?)
  1105.  Who volunteers for that ?]
  1106.  
  1107. 1. Rochester Connectionist Simulator
  1108.    A quite versatile simulator program for arbitrary types of 
  1109.    neural nets. Comes with a backprop package and a X11/Sunview
  1110.    interface.
  1111.    anonymous FTP from cs.rochester.edu (192.5.53.209) 
  1112.    directory :  pub/simulator
  1113.    files:               README                   (8 KB)
  1114.      (documentation:)   rcs_v4.2.justdoc.tar.Z   (1.6 MB)
  1115.      (source code:)     rcs_v4.2.justsrc.tar.Z   (1.4 MB)
  1116.  
  1117. 2. UCLA-SFINX
  1118.    ftp 131.179.16.6  (retina.cs.ucla.edu)
  1119.    Name: sfinxftp
  1120.    Password: joshua
  1121.    directory: pub/
  1122.    files : README
  1123.            sfinx_v2.0.tar.Z
  1124.    Email info request : sfinx@retina.cs.ucla.edu
  1125.  
  1126. 3. NeurDS
  1127.    request from mcclanahan%cookie.dec.com@decwrl.dec.com 
  1128.    simulator for DEC systems supporting VT100 terminal.
  1129.    OR
  1130.    anonymous ftp gatekeeper.dec.com [16.1.0.2]
  1131.    directory: pub/DEC
  1132.    file: NeurDS031.tar.Z ( please check may be NeurDSO31.tar.Z )
  1133.  
  1134. 4. PlaNet5.7 (also known as SunNet)
  1135.    ftp 133.15.240.3  (tutserver.tut.ac.jp)
  1136.    pub/misc/PlaNet5.7.tar.Z
  1137.      or 
  1138.    ftp 128.138.240.1 (boulder.colorado.edu) 
  1139.    pub/generic-sources/PlaNet5.7.tar.Z  (also the old PlaNet5.6.tar.Z)
  1140.    A popular connectionist simulator with versions to
  1141.    run under X Windows, and non-graphics terminals 
  1142.    created by Yoshiro Miyata (Chukyo Univ., Japan).  
  1143.    60-page User's Guide in Postscript.
  1144.    Send any questions to miyata@sccs.chukyo-u.ac.jp
  1145.  
  1146. 5. GENESIS
  1147.    anonymous ftp 131.215.135.64 ( genesis.cns.caltech.edu )
  1148.    Register first via   telnet genesis.cns.caltech.edu
  1149.    login as: genesis
  1150.  
  1151. 6. Mactivation
  1152.    anonymous ftp from bruno.cs.colorado.edu [128.138.243.151]
  1153.    directory: /pub/cs/misc
  1154.    file: Mactivation-3.3.sea.hqx
  1155.  
  1156. 7. CMU Connectionist Archive
  1157.    There is a lisp backprop simulator in the 
  1158.    connectionist archive.
  1159.    unix> ftp b.gp.cs.cmu.edu (or 128.2.242.8)
  1160.    Name: ftpguest
  1161.    Password: cmunix
  1162.    ftp> cd connectionists/archives
  1163.    ftp> get backprop.lisp
  1164.  
  1165. 8. Cascade Correlation Simulator
  1166.    There is a LISP and C version of the 
  1167.    simulator based on Scott Fahlman's Cascade Correlation algorithm,
  1168.    who also created the LISP version.  The C version was created by
  1169.    Scott Crowder.  
  1170.    Anonymous ftp from pt.cs.cmu.edu (or 128.2.254.155)
  1171.    directory  /afs/cs/project/connect/code
  1172.    files      cascor1.lisp    (56 KB)
  1173.               cascor1.c      (108 KB)
  1174.  
  1175. 9. Quickprop
  1176.    A variation of the back-propagation algorithm developed by
  1177.    Scott Fahlman.  A LISP and C version can be obtained in the
  1178.    same directory as the cascade correlation simulator above.  (25 KB)
  1179.  
  1180. 10. DartNet
  1181.    DartNet is a Macintosh-based Neural Network Simulator. It makes
  1182.    full use of the Mac's graphical interface, and provides a
  1183.    number of powerful tools for building, editing, training,
  1184.    testing and examining networks.
  1185.    This program is available by anonymous ftp from 
  1186.    dartvax.dartmouth.edu [129.170.16.4] as
  1187.    /pub/mac/dartnet.sit.hqx   (124 KB)
  1188.    Copies may also be obtained through email from bharucha@dartmouth.edu.
  1189.    Along with a number of interface improvements and feature
  1190.    additions, v2.0 is an extensible simulator. That is,
  1191.    new network architectures and learning algorithms can be
  1192.    added to the system by writing small XCMD-like CODE
  1193.    resources called nDEF's ("Network Definitions"). A number
  1194.    of such architectures are included with v2.0, as well as
  1195.    header files for creating new nDEF's.
  1196.    Contact:  sean@coos.dartmouth.edu (Sean P. Nolan)
  1197.  
  1198. 11. SNNS
  1199.    "Stuttgart Neural Network Simulator" from the University
  1200.    of Stuttgart, Germany.
  1201.    A luxurious simulator for many types of nets; with X11 interface:
  1202.    Graphical 2D and 3D topology editor/visualizer, training visualisation,
  1203.    etc.
  1204.    Currently supports backpropagation (vanilla, online, with momentum 
  1205.    term and flat spot elimination, batch, time delay), counterpropagation, 
  1206.    quickprop, backpercolation 1, generalized radial basis functions (RBF),
  1207.    RProp, ART1, ART2, ARTMAP, Cascade Correlation, Recurrent Cascade 
  1208.    Correlation, Dynamic LVQ, Backpropagation through time (for recurrent 
  1209.    networks), batch backpropagation through time (for recurrent networks),
  1210.    Quickpropagation through time (for recurrent networks),
  1211.    and is user-extendable.
  1212.  
  1213.    ftp: ftp.informatik.uni-stuttgart.de [129.69.211.2]
  1214.    directory /pub/SNNS
  1215.    file    SNNSv3.0.tar.Z   OR   SNNSv3.0.tar.Za[a-d]   ( 826 KB)
  1216.    manual  SNNSv2.1.Manual.ps.Z                         (1270 KB)
  1217.            SNNSv2.1.Readme                (8052 Bytes)
  1218.    
  1219. 12. Aspirin/MIGRAINES
  1220.    Aspirin/MIGRAINES 6.0 consists of a code generator that builds neural network
  1221.    simulations by reading a network description (written in a language
  1222.    called "Aspirin") and generates a C simulation. An interface 
  1223.    (called "MIGRAINES") is provided to export data from the neural
  1224.    network to visualization tools.
  1225.    The system has been ported to a large number of platforms.
  1226.      The goal of Aspirin is to provide a common extendible front-end language 
  1227.    and parser for different network paradigms.
  1228.      The MIGRAINES interface is a terminal based interface
  1229.    that allows you to open Unix pipes to data in the neural
  1230.    network. This replaces the NeWS1.1 graphical interface
  1231.    in version 4.0 of the Aspirin/MIGRAINES software. The
  1232.    new interface is not a simple to use as the version 4.0
  1233.    interface but is much more portable and flexible.
  1234.      The MIGRAINES interface allows users to output
  1235.    neural network weight and node vectors to disk or to
  1236.    other Unix processes. Users can display the data using
  1237.    either public or commercial graphics/analysis tools.
  1238.    Example filters are included that convert data exported through
  1239.    MIGRAINES to formats readable by Gnuplot 3.0, Matlab, Mathematica,
  1240.    and xgobi.
  1241.      The software is available from two FTP sites:
  1242.    CMU's simulator collection on "pt.cs.cmu.edu" (128.2.254.155)
  1243.    in /afs/cs/project/connect/code/am6.tar.Z". 
  1244.    and UCLA's cognitive science machine "ftp.cognet.ucla.edu" (128.97.50.19)
  1245.    in alexis/am6.tar.Z
  1246.    The compressed tar file is a little less than 2 megabytes.
  1247.  
  1248. 13. Adaptive Logic Network kit 
  1249.    Available from menaik.cs.ualberta.ca.  This package differs from
  1250.    the traditional nets in that it uses logic functions rather than
  1251.    floating point; for many tasks, ALN's can show many orders of
  1252.    magnitude gain in training and performance speed.
  1253.    Anonymous ftp from menaik.cs.ualberta.ca [129.128.4.241] 
  1254.    unix source code and examples: /pub/atree2.tar.Z   (145 KB)
  1255.    Postscript documentation:      /pub/atree2.ps.Z    ( 76 KB)
  1256.    MS-DOS Windows 3.0 version:    /pub/atree2.zip     (353 KB)
  1257.                                   /pub/atree2zip.readme (1 KB)
  1258.  
  1259. 14. NeuralShell
  1260.    Available from FTP site quanta.eng.ohio-state.edu
  1261.    (128.146.35.1) in directory "pub/NeuralShell", filename
  1262.    "NeuralShell.tar".
  1263.  
  1264. 15. PDP
  1265.    The PDP simulator package is available via anonymous FTP at
  1266.    nic.funet.fi  (128.214.6.100) in /pub/sci/neural/sims/pdp.tar.Z (0.2 MB)
  1267.    The simulator is also available with the book
  1268.     "Explorations in Parallel Distributed Processing: A Handbook of
  1269.      Models, Programs, and Exercises" by McClelland and Rumelhart.
  1270.      MIT Press, 1988.
  1271.    Comment: "This book is often referred to as PDP vol III which is a very
  1272.    misleading practice!  The book comes with software on an IBM disk but
  1273.    includes a makefile for compiling on UNIX systems.  The version of
  1274.    PDP available at nic.funet.fi seems identical to the one with the book
  1275.    except for a bug in bp.c which occurs when you try to run a script of
  1276.    PDP commands using the DO command.  This can be found and fixed easily."
  1277.  
  1278. 16. Xerion
  1279.    Xerion is available via anonymous ftp from 
  1280.    ftp.cs.toronto.edu in the directory /pub/xerion.  
  1281.    xerion-3.1.ps.Z (153 kB) and xerion-3.1.tar.Z (1322 kB) plus
  1282.    several concrete simulators built with xerion (about 40 kB each).
  1283.    Xerion runs on SGI and Sun machines and uses X Windows for graphics.
  1284.    The software contains modules that implement Back Propagation,
  1285.    Recurrent Back Propagation, Boltzmann Machine, Mean Field Theory,
  1286.    Free Energy Manipulation, Hard and Soft Competitive Learning, and
  1287.    Kohonen Networks. Sample networks built for each of the modules are
  1288.    also included.
  1289.    Contact: xerion@ai.toronto.edu
  1290.  
  1291. 17. Neocognitron simulator
  1292.   An implementation is available for anonymous ftp at
  1293.     [128.194.15.32] tamsun.tamu.edu as 
  1294.                     /pub/neocognitron.Z.tar     or
  1295.     [129.12.21.7]   unix.hensa.ac.uk as 
  1296.                     /pub/uunet/pub/ai/neural/neocognitron.tar.Z
  1297.   The simulator is written in C and comes with a list of references 
  1298.   which are necessary to read to understand the specifics of the
  1299.   implementation. The unsupervised version is coded without (!)
  1300.   C-cell inhibition.
  1301.  
  1302. 18. Multi-Module Neural Computing Environment (MUME)
  1303.   MUME is a simulation environment for multi-modules neural computing. It
  1304.   provides an object oriented facility for the simulation and training 
  1305.   of multiple nets with various architectures and learning algorithms.
  1306.   MUME includes a library of network architectures including feedforward,
  1307.   simple recurrent, and continuously running recurrent neural networks.
  1308.   Each architecture is supported by a variety of learning algorithms.
  1309.   MUME can be used for large scale neural network simulations as it provides
  1310.   support for learning in multi-net environments. It also provide pre- and
  1311.   post-processing facilities.
  1312.   The modules are provided in a library. Several "front-ends" or clients are
  1313.   also available.
  1314.   MUME can be used to include non-neural computing modules (decision 
  1315.   trees, ...) in applications.
  1316.   The software is written in 'C' and is being used on Sun and DEC 
  1317.   workstations. Efforts are underway to port it to the Fujitsu VP2200 
  1318.   vector processor using the VCC vectorising C compiler.
  1319.   MUME is made available to research institutions on media/doc/postage cost
  1320.   arrangements. Contact:
  1321.   Marwan Jabri, SEDAL, Sydney University Electrical Engineering,
  1322.   NSW 2006 Australia,  marwan@sedal.su.oz.au
  1323.  
  1324. 19. LVQ_PAK, SOM_PAK
  1325.   These are packages for Learning Vector Quantization and 
  1326.   Self-Organizing Maps, respectively.
  1327.   They have been built by the LVQ/SOM Programming Team of the
  1328.   Helsinki University of Technology, Laboratory of Computer and 
  1329.   Information Science, Rakentajanaukio 2 C, SF-02150 Espoo, FINLAND             
  1330.   There are versions for Unix and MS-DOS available from
  1331.   cochlea.hut.fi (130.233.168.48) in 
  1332.   /pub/lvq_pak/lvq_pak-2.1.tar.Z   (340 kB, Unix)
  1333.   /pub/lvq_pak/lvq_p2r1.exe        (310 kB, MS-DOS self-extract archive)
  1334.   /pub/som_pak/som_pak-1.1.tar.Z   (246 kB, Unix)
  1335.   /pub/som_pak/som_p1r1.exe        (215 kB, MS-DOS self-extract archive)
  1336.  
  1337. 20. SESAME
  1338.   (Software Environment for the Simulation of Adaptive Modular Systems)
  1339.   SESAME  is a  prototypical software implementation  which facilitates
  1340.   * Object-oriented building blocks approach.
  1341.   * Contains a large  set of C++ classes  useful for  neural nets,
  1342.     neurocontrol and pattern recognition. No C++ classes can be used as
  1343.     stand alone, though! 
  1344.   * C++ classes include CartPole, nondynamic  two-robot arms, Lunar Lander,
  1345.     Backpropagation,  Feature Maps,   Radial Basis Functions,  TimeWindows,
  1346.     Fuzzy Set Coding,  Potential Fields,  Pandemonium,  and diverse utility
  1347.     building blocks.
  1348.   * A kernel which is the framework for the C++ classes and allows run-time
  1349.     manipulation,  construction,  and integration  of arbitrary complex and
  1350.     hybrid experiments. 
  1351.   * Currently no graphic interface for construction, only for visualization.
  1352.   * Platform is SUN4, XWindows
  1353.   Unfortunately no reasonable good introduction has been written until now.
  1354.   We hope to have something soon.  For now we provide papers (eg. NIPS-92),
  1355.   a reference manual (>220 pages), source code  (ca. 35.000 lines of
  1356.   code), and a SUN4-executable by ftp only.
  1357.   Sesame and its description is available for anonymous ftp on
  1358.      ftp ftp.gmd.de [129.26.8.90] in the directories
  1359.      gmd/as/sesame   and   gmd/as/paper
  1360.   Questions please to sesame-request@gmd.de
  1361.   There is only very limited support available. Currently we can not handle
  1362.   many users.
  1363.  
  1364. 21. Nevada Backpropagation (NevProp) 
  1365.   NevProp is a user-friendly backpropagation program written in C for
  1366.   UNIX, Macintosh, and DOS. The original version was Quickprop 1.0 by
  1367.   Scott Fahlman, as translated from Common Lisp into C by Terry Regier.
  1368.   The quickprop algorithm itself was not substantively changed, but we 
  1369.   inserted options to force gradient descent (per-epoch or per-pattern)
  1370.   and added generalization & stopped training, c index, and interface
  1371.   enhancements.     
  1372.   *** FEATURES:   NevProp version 1.15...
  1373.    o UNLIMITED (except by machine memory) number of input PATTERNS;
  1374.    o UNLIMITED number of input, hidden, and output UNITS;
  1375.    o Arbitrary CONNECTIONS among the various layers' units;
  1376.    o Clock-time or user-specified RANDOM SEED for initial random weights;
  1377.    o Choice of regular GRADIENT DESCENT or QUICKPROP;
  1378.    o Choice of LOGISTIC or TANH activation functions;
  1379.    o Choice of PER-EPOCH or PER-PATTERN (stochastic) weight updating;
  1380.    o GENERALIZATION to a test dataset;
  1381.    o AUTOMATICALLY STOPPED TRAINING based on generalization;
  1382.    o RETENTION of best-generalizing weights and predictions;
  1383.    o Simple but useful bar GRAPH to show smoothness of generalization;
  1384.    o SAVING of results to a file while working interactively;
  1385.    o SAVING of weights file and reloading for continued training;
  1386.    o PREDICTION-only on datasets by applying an existing weights file;
  1387.    o In addition to RMS error, the concordance, or c index is displayed.
  1388.      The c index shows the correctness of the RELATIVE ordering
  1389.      of predictions AMONG the cases; ie, it considers all possible PAIRS
  1390.      of vectors. This statistic is identical to the area under the
  1391.      receiver operating characteristic (ROC) curve, widely used in
  1392.      technology assessment.
  1393.   *** AVAILABILITY: 
  1394.    The most updated version of NevProp will be made available 
  1395.    by anonymous ftp from the University of Nevada, Reno:
  1396.    "unssun.scs.unr.edu" [134.197.10.128]
  1397.    directory "pub/goodman/nevpropdir"
  1398.   *** SUPPORT: 
  1399.    Limited support is available from Phil Goodman (goodman@unr.edu),
  1400.    University of Nevada Center for Biomedical Research.
  1401.  
  1402.  
  1403. For some of these simulators there are user mailing lists. Get the
  1404. packages and look into their documentation for further info.
  1405.  
  1406. If you are using a small computer (PC, Mac, etc.) you may want to have
  1407. a look at the  Central Neural System Electronic Bulletin Board
  1408. (see Answer 14)
  1409. Modem: 509-627-6CNS; Sysop: Wesley R. Elsberry;
  1410. P.O. Box 1187, Richland, WA 99352; welsberr@sandbox.kenn.wa.us
  1411. There are lots of small simulator packages, the CNS ANNSIM file set.
  1412. There is an ftp mirror site for the CNS ANNSIM file set at
  1413. me.uta.edu (129.107.2.20) in the /pub/neural directory.  Most ANN
  1414. offerings are in /pub/neural/annsim.
  1415.  
  1416. ------------------------------------------------------------------------
  1417.  
  1418. -A16.) Commercial software packages for NN simulation ?
  1419.  
  1420. [preliminary]
  1421. [who will write some short comment on each of the most 
  1422.  important packages ?]
  1423.  
  1424. The Number 1 of each volume of the journal "Neural Networks" has a list
  1425. of some dozens of commercial suppliers of Neural Network things:
  1426. Software, Hardware, Support, Programming, Design and Service.
  1427.  
  1428. Here is a naked list of names of Simulators running on PC (and, partly, 
  1429. some other platforms, too):
  1430.  
  1431. 1. NeuralWorks Professional 2+ (NeuralWare)
  1432. 2. AIM
  1433. 3. BrainMaker Professional
  1434. 4. Brain Cel
  1435. 5. Neural Desk
  1436. 6. Neural Case
  1437. 7. Neuro Windows
  1438. 8. Explorenet 3000
  1439. 9. NeuroShell (Systems Group)
  1440. 10. Dynamind (Neurodynamix)
  1441.  
  1442. Another thing:
  1443.  
  1444. MATLAB Neural Network Toolbox (for use with Matlab 4.x)
  1445. Contact: The MathWorks, Inc.     Phone: 508-653-1415
  1446.          24 Prime Park Way       FAX: 508-653-2997
  1447.          Natick, MA  01760       email: info@mathworks.com
  1448.  
  1449. (Comment by Richard Andrew Miles Outerbridge, RAMO@UVPHYS.PHYS.UVIC.CA)
  1450. Matlab is spreading like hotcakes (and the educational discounts 
  1451. are very impressive). The newest release of Matlab (4.0) ansrwers
  1452. the question "if you could only program in one language what would it be?".
  1453. The neural network toolkit is worth getting for the manual alone. Matlab is
  1454. available with lots of other toolkits (signal processing, optimization, etc.)
  1455. but I don't use them much - the main package is more than enough. The nice
  1456. thing about the Matlab approach is that you can easily interface the neural
  1457. network stuff with anything else you are doing.
  1458.  
  1459. And still another thing:
  1460.  
  1461. Network Cybernetics Corporation produces a so-called "AI CD-ROM".
  1462. The AI CD-ROM is an ISO-9660 format 
  1463. CD-ROM and contains a large assortment of 
  1464. software related to artificial intelligence, artificial life, virtual 
  1465. reality, and other topics.  Programs for  OS/2, MS-DOS, Macintosh, UNIX, 
  1466. and other operating systems are included.  Research papers, tutorials, 
  1467. and other text files are included in ASCII, RTF, and other universal 
  1468. formats.  The files have been collected from AI bulletin boards, 
  1469. Internet archive sites, University computer deptartments, and  
  1470. other government and civilian AI research organizations.  Network 
  1471. Cybernetics Corporation intends to release annual revisions to the 
  1472. AI CD-ROM to keep it up to date with current developments in the field.  
  1473.  
  1474. The AI CD-ROM includes collections of files that address many
  1475. specific AI/AL topics including:
  1476.    [... some stuff deleted...]
  1477.     - Neural Networks: Source code and executables for many different 
  1478. platforms including Unix, DOS, and Macintosh.  ANN development tools, 
  1479. example networks, sample data, and tutorials are included.  A complete 
  1480. collection of Neural Digest is included as well.
  1481.    [... lots of stuff deleted...]
  1482.  
  1483. The AI CD-ROM may be ordered directly by check, money order, bank
  1484. draft, or credit card from:
  1485.     Network Cybernetics Corporation
  1486.     4201 Wingren Road Suite 202
  1487.     Irving, TX 75062-2763
  1488.     Tel 214/650-2002
  1489.     Fax 214/650-1929
  1490. The cost is $129 per disc + shipping ($5/disc domestic or $10/disc foreign)
  1491. [See the comp.ai FAQ for further details]
  1492.  
  1493. ------------------------------------------------------------------------
  1494.  
  1495. -A17.) Neural Network hardware ?
  1496.  
  1497. [preliminary]
  1498. [who will write some short comment on the most important
  1499.  HW-packages and chips ?]
  1500.  
  1501. The Number 1 of each volume of the journal "Neural Networks" has a list
  1502. of some dozens of suppliers of Neural Network support:
  1503. Software, Hardware, Support, Programming, Design and Service.
  1504.  
  1505. Here is a list of companies contributed by xli@computing-maths.cardiff.ac.uk:
  1506.  
  1507. 1. HNC, INC.
  1508.    5501 Oberlin Drive
  1509.    San Diego
  1510.    California 92121
  1511.    (619) 546-8877
  1512.  
  1513.    and a second address at
  1514.  
  1515.    7799 Leesburg Pike, Suite 900
  1516.    Falls Church, Virginia
  1517.    22043
  1518.    (703) 847-6808
  1519.  
  1520.    Note: Australian Dist.: Unitronics 
  1521.                            Tel : (09) 4701443
  1522.                            Contact: Martin Keye
  1523.  
  1524.    HNC markets:
  1525.     'Image Document Entry Processing Terminal' - it recognises
  1526.     handwritten documents and converts the info to ASCII.
  1527.  
  1528.     'ExploreNet 3000' - a NN demonstrator
  1529.  
  1530.     'Anza/DP Plus'- a Neural Net board with 25MFlop or 12.5M peak 
  1531.     interconnects per second.
  1532.  
  1533. 2. SAIC (Sience Application International Corporation)
  1534.    10260 Campus Point Drive
  1535.    MS 71, San Diego
  1536.    CA 92121
  1537.    (619) 546 6148
  1538.    Fax: (619) 546 6736
  1539.  
  1540. 3. Micro Devices
  1541.    30 Skyline Drive
  1542.    Lake Mary
  1543.    FL 32746-6201
  1544.    (407) 333-4379
  1545.  
  1546.    MicroDevices makes   MD1220 - 'Neural Bit Slice'
  1547.  
  1548.    Each of the products mentioned sofar have very different usages.
  1549.    Although this sounds similar to Intel's product, the
  1550.    architectures are not.
  1551.  
  1552. 4. Intel Corp
  1553.    2250 Mission College Blvd
  1554.    Santa Clara, Ca 95052-8125
  1555.    Attn ETANN, Mail Stop SC9-40
  1556.    (408) 765-9235
  1557.  
  1558.    Intel is making an experimental chip:
  1559.    80170NW - Electrically trainable Analog Neural Network (ETANN)
  1560.           
  1561.    It has 64 'neurons' on it - almost fully internally connectted
  1562.    and the chip can be put in an hierarchial architecture to do 2 Billion
  1563.    interconnects per second.
  1564.  
  1565.    Support software has already been made by
  1566.  
  1567.    California Scientific Software
  1568.    10141 Evening Star Dr #6
  1569.    Grass Valley, CA 95945-9051
  1570.    (916) 477-7481
  1571.  
  1572.    Their product is called 'BrainMaker'.
  1573.    
  1574. 5. NeuralWare, Inc
  1575.    Penn Center West
  1576.    Bldg IV Suite 227
  1577.    Pittsburgh
  1578.    PA 15276
  1579.  
  1580.    They only sell software/simulator but for many platforms.
  1581.  
  1582. 6. Tubb Research Limited
  1583.    7a Lavant Street
  1584.    Peterfield
  1585.    Hampshire
  1586.    GU32 2EL
  1587.    United Kingdom
  1588.    Tel: +44 730 60256
  1589.  
  1590. 7. Adaptive Solutions Inc
  1591.    1400 NW Compton Drive
  1592.    Suite 340
  1593.    Beaverton, OR 97006
  1594.    U. S. A.
  1595.    Tel: 503 - 690 - 1236
  1596.    FAX: 503 - 690 - 1249
  1597.  
  1598. And here is an incomplete list of Neurocomputers 
  1599. (provided by jon@kongle.idt.unit.no (Jon Gunnar Solheim)):
  1600.  
  1601. Overview over known Neural Computers with their newest known reference.
  1602. \subsection*{Digital}
  1603. \subsubsection{Special Computers}
  1604.  
  1605. {\bf AAP-2}
  1606. Takumi Watanabe, Yoshi Sugiyama, Toshio Kondo, and Yoshihiro Kitamura.
  1607. Neural network simulation on a massively parallel cellular array
  1608. processor: AAP-2. 
  1609. In International Joint Conference on Neural Networks, 1989.
  1610.  
  1611. {\bf ANNA}
  1612. B.E.Boser, E.Sackinger, J.Bromley, Y.leChun, and L.D.Jackel.\\
  1613. Hardware Requirements for Neural Network Pattern Classifiers.\\
  1614. In {\it IEEE Micro}, 12(1), pages 32-40, February 1992.
  1615.  
  1616. {\bf Analog Neural Computer}
  1617. Paul Mueller et al. 
  1618. Design and performance of a prototype analog neural computer. 
  1619. In Neurocomputing, 4(6):311-323, 1992.
  1620.  
  1621. {\bf APx -- Array Processor Accelerator}\\
  1622. F.Pazienti.\\
  1623. Neural networks simulation with array processors. 
  1624. In {\it Advanced Computer Technology, Reliable Systems and Applications;
  1625. Proceedings of the 5th Annual Computer Conference}, pages 547-551. 
  1626. IEEE Comput. Soc. Press, May 1991. ISBN: 0-8186-2141-9.
  1627.  
  1628. {\bf ASP -- Associative String Processor}\\
  1629. A.Krikelis.\\
  1630. A novel massively associative processing architecture for the
  1631. implementation artificial neural networks.\\
  1632. In {\it 1991 International Conference on Acoustics, Speech and 
  1633. Signal Processing}, volume 2, pages 1057-1060. IEEE Comput. Soc. Press,
  1634. May 1991.
  1635.  
  1636. {\bf BSP400}
  1637. Jan N.H. Heemskerk, Jacob M.J. Murre, Jaap Hoekstra, Leon H.J.G.
  1638. Kemna, and Patrick T.W. Hudson. 
  1639. The bsp400: A modular neurocomputer assembled from 400 low-cost
  1640. microprocessors. 
  1641. In International Conference on Artificial Neural Networks. Elsevier
  1642. Science, 1991.
  1643.  
  1644. {\bf BLAST}\\
  1645. J.G.Elias, M.D.Fisher, and C.M.Monemi.\\
  1646. A multiprocessor machine for large-scale neural network simulation.
  1647. In {\it IJCNN91-Seattle: International Joint Conference on Neural
  1648. Networks}, volume 1, pages 469-474. IEEE Comput. Soc. Press, July 1991.
  1649. ISBN: 0-7883-0164-1.
  1650.  
  1651. {\bf CNAPS Neurocomputer}\\
  1652. H.McCartor\\
  1653. Back Propagation Implementation on the Adaptive Solutions CNAPS
  1654. Neurocomputer.\\
  1655. In {\it Advances in Neural Information Processing Systems}, 3, 1991.
  1656.  
  1657. {\bf MA16 -- Neural Signal Processor}
  1658. U.Ramacher, J.Beichter, and N.Bruls.\\
  1659. Architecture of a general-purpose neural signal processor.\\
  1660. In {\it IJCNN91-Seattle: International Joint Conference on Neural
  1661. Networks}, volume 1, pages 443-446. IEEE Comput. Soc. Press, July 1991.
  1662. ISBN: 0-7083-0164-1.
  1663.  
  1664. {\bf Mindshape}
  1665. Jan N.H. Heemskerk, Jacob M.J. Murre Arend Melissant, Mirko Pelgrom,
  1666. and Patrick T.W. Hudson. 
  1667. Mindshape: a neurocomputer concept based on a fractal architecture. 
  1668. In International Conference on Artificial Neural Networks. Elsevier
  1669. Science, 1992. 
  1670.  
  1671. {\bf mod 2}
  1672. Michael L. Mumford, David K. Andes, and Lynn R. Kern. 
  1673. The mod 2 neurocomputer system design. 
  1674. In IEEE Transactions on Neural Networks, 3(3):423-433, 1992.
  1675.  
  1676. {\bf NERV}\\
  1677. R.Hauser, H.Horner, R. Maenner, and M.Makhaniok.\\
  1678. Architectural Considerations for NERV - a General Purpose Neural
  1679. Network Simulation System.\\
  1680. In {\it Workshop on Parallel Processing: Logic, Organization and
  1681. Technology -- WOPPLOT 89}, pages 183-195. Springer Verlag, Mars 1989.
  1682. ISBN: 3-5405-5027-5.
  1683.  
  1684. {\bf NP -- Neural Processor}\\
  1685. D.A.Orrey, D.J.Myers, and J.M.Vincent.\\
  1686. A high performance digital processor for implementing large artificial
  1687. neural networks.\\
  1688. In {\it Proceedings of of the IEEE 1991 Custom Integrated Circuits
  1689. Conference}, pages 16.3/1-4. IEEE Comput. Soc. Press, May 1991. 
  1690. ISBN: 0-7883-0015-7.
  1691.  
  1692. {\bf RAP -- Ring Array Processor }\\
  1693. N.Morgan, J.Beck, P.Kohn, J.Bilmes, E.Allman, and J.Beer.\\
  1694. The ring array processor: A multiprocessing peripheral for connectionist
  1695. applications. \\
  1696. In {\it Journal of Parallel and Distributed Computing}, pages
  1697. 248-259, April 1992.
  1698.  
  1699. {\bf RENNS -- REconfigurable Neural Networks Server}\\
  1700. O.Landsverk, J.Greipsland, J.A.Mathisen, J.G.Solheim, and L.Utne.\\
  1701. RENNS - a Reconfigurable Computer System for Simulating Artificial
  1702. Neural Network Algorithms.\\
  1703. In {\it Parallel and Distributed Computing Systems, Proceedings of the
  1704. ISMM 5th International Conference}, pages 251-256. The International
  1705. Society for Mini and Microcomputers - ISMM, October 1992. 
  1706. ISBN: 1-8808-4302-1.
  1707.  
  1708. {\bf SMART -- Sparse Matrix Adaptive and Recursive Transforms}\\
  1709. P.Bessiere, A.Chams, A.Guerin, J.Herault, C.Jutten, and J.C.Lawson.\\
  1710. From Hardware to Software: Designing a ``Neurostation''.\\
  1711. In {\it VLSI design of Neural Networks}, pages 311-335, June 1990.
  1712.  
  1713. {\bf SNAP -- Scalable Neurocomputer Array Processor}
  1714. E.Wojciechowski.\\
  1715. SNAP: A parallel processor for implementing real time neural networks.\\
  1716. In {\it Proceedings of the IEEE 1991 National Aerospace and Electronics
  1717. Conference; NAECON-91}, volume 2, pages 736-742. IEEE Comput.Soc.Press,
  1718. May 1991.
  1719.  
  1720. {\bf Toroidal Neural Network Processor}\\
  1721. S.Jones, K.Sammut, C.Nielsen, and J.Staunstrup.\\
  1722. Toroidal Neural Network: Architecture and Processor Granularity
  1723. Issues.\\
  1724. In {\it VLSI design of Neural Networks}, pages 229-254, June 1990.
  1725.  
  1726. {\bf SMART and SuperNode}
  1727. P. Bessi`ere, A. Chams, and P. Chol. 
  1728. MENTAL : A virtual machine approach to artificial neural networks programming.
  1729. In NERVES, ESPRIT B.R.A. project no 3049, 1991. 
  1730. (The report archived on neuroprose}
  1731.  
  1732.  
  1733. \subsubsection{Standard Computers}
  1734.  
  1735. {\bf EMMA-2}\\
  1736. R.Battiti, L.M.Briano, R.Cecinati, A.M.Colla, and P.Guido.\\
  1737. An application oriented development environment for Neural Net models on
  1738. multiprocessor Emma-2.\\
  1739. In {\it Silicon Architectures for Neural Nets; Proceedings for the IFIP
  1740. WG.10.5 Workshop}, pages 31-43. North Holland, November 1991. 
  1741. ISBN: 0-4448-9113-7.
  1742.  
  1743. {\bf iPSC/860 Hypercube}\\
  1744. D.Jackson, and D.Hammerstrom\\
  1745. Distributing Back Propagation Networks Over the Intel iPSC/860
  1746. Hypercube}\\ 
  1747. In {\it IJCNN91-Seattle: International Joint Conference on Neural
  1748. Networks}, volume 1, pages 569-574. IEEE Comput. Soc. Press, July 1991.
  1749. ISBN: 0-7083-0164-1.
  1750.  
  1751. {\bf SCAP -- Systolic/Cellular Array Processor}\\
  1752. Wei-Ling L., V.K.Prasanna, and K.W.Przytula.\\
  1753. Algorithmic Mapping of Neural Network Models onto Parallel SIMD
  1754. Machines.\\
  1755. In {\it IEEE Transactions on Computers}, 40(12), pages 1390-1401,
  1756. December 1991. ISSN: 0018-9340.
  1757.  
  1758. ------------------------------------------------------------------------
  1759.  
  1760. -A19.) Databases for experimentation with NNs ?
  1761.  
  1762. [are there any more ?]
  1763.  
  1764. 1. The nn-bench Benchmark collection
  1765.    accessible via anonymous FTP on
  1766.      "pt.cs.cmu.edu"
  1767.    in directory
  1768.      "/afs/cs/project/connect/bench"
  1769.    or via the Andrew file system in the directory
  1770.      "/afs/cs.cmu.edu/project/connect/bench"
  1771.    In case of problems email contact is "nn-bench-request@cs.cmu.edu".
  1772.    The data sets in this repository include the 'nettalk' data, the 
  1773.    'two spirals' problem, a vowel recognition task, and a few others.
  1774.  
  1775. 2. UCI machine learning database
  1776.    accessible via anonymous FTP on
  1777.      "ics.uci.edu" [128.195.1.1]
  1778.    in directory
  1779.      "/pub/machine-learning-databases"
  1780.  
  1781. 3. NIST special databases of the National Institute Of Standards 
  1782.    And Technology:
  1783.    NIST special database 2: 
  1784.      Structured Forms Reference Set (SFRS)
  1785.  
  1786.      The NIST database of structured forms contains 5,590 full page images
  1787.      of simulated tax forms completed using machine print. THERE IS NO REAL
  1788.      TAX DATA IN THIS DATABASE. The structured forms used in this database
  1789.      are 12 different forms from the 1988, IRS 1040 Package X. These
  1790.      include Forms 1040, 2106, 2441, 4562, and 6251 together with Schedules
  1791.      A, B, C, D, E, F and SE.  Eight of these forms contain two pages or
  1792.      form faces making a total of 20 form faces represented in the
  1793.      database.  Each image is stored in bi-level black and white raster
  1794.      format.  The images in this database appear to be real forms prepared
  1795.      by individuals but the images have been automatically derived and
  1796.      synthesized using a computer and contain no "real" tax data. The entry
  1797.      field values on the forms have been automatically generated by a
  1798.      computer in order to make the data available without the danger of
  1799.      distributing privileged tax information.  In addition to the images
  1800.      the database includes 5,590 answer files, one for each image. Each
  1801.      answer file contains an ASCII representation of the data found in the
  1802.      entry fields on the corresponding image. Image format documentation
  1803.      and example software are also provided.  The uncompressed database
  1804.      totals approximately 5.9 gigabytes of data.
  1805.  
  1806.    NIST special database 3: 
  1807.      Binary Images of Handwritten Segmented Characters (HWSC)
  1808.  
  1809.      Contains 313,389 isolated character images segmented from the
  1810.      2,100 full-page images distributed with "NIST Special Database 1".
  1811.      223,125 digits, 44,951 upper-case, and 45,313 lower-case character
  1812.      images. Each character image has been centered in a separate 
  1813.      128 by 128 pixel region, error rate of the segmentation and
  1814.      assigned classification is less than 0.1%. 
  1815.      The uncompressed database totals approximately 2.75 gigabytes of
  1816.      image data and includes image format documentation and example software.
  1817.  
  1818.  
  1819.    NIST special database 4: 
  1820.      8-Bit Gray Scale Images of Fingerprint Image Groups (FIGS)
  1821.  
  1822.      The NIST database of fingerprint images contains 2000 8-bit gray scale
  1823.      fingerprint image pairs. Each image is 512 by 512 pixels with 32 rows
  1824.      of white space at the bottom and classified using one of the five
  1825.      following classes: A=Arch, L=Left Loop, R=Right Loop, T=Tented Arch,
  1826.      W=Whirl. The database is evenly distributed over each of the five
  1827.      classifications with 400 fingerprint pairs from each class. The images
  1828.      are compressed using a modified JPEG lossless compression algorithm
  1829.      and require approximately 636 Megabytes of storage compressed and 1.1
  1830.      Gigabytes uncompressed (1.6 : 1 compression ratio). The database also
  1831.      includes format documentation and example software.
  1832.  
  1833.    More short overview:
  1834.    Special Database 1 - NIST Binary Images of Printed Digits, Alphas, and Text
  1835.    Special Database 2 - NIST Structured Forms Reference Set of Binary Images
  1836.    Special Database 3 - NIST Binary Images of Handwritten Segmented Characters
  1837.    Special Database 4 - NIST 8-bit Gray Scale Images of Fingerprint Image Groups
  1838.    Special Database 6 - NIST Structured Forms Reference Set 2 of Binary Images
  1839.    Special Database 7 - NIST Test Data 1: Binary Images of Handprinted Segmented
  1840.                         Characters
  1841.    Special Software 1 - NIST Scoring Package Release 1.0
  1842.  
  1843.    Special Database 1 - $895.00
  1844.    Special Database 2 - $250.00
  1845.    Special Database 3 - $895.00
  1846.    Special Database 4 - $250.00
  1847.    Special Database 6 - $250.00
  1848.    Special Database 7 - $1,000.00
  1849.    Special Software 1 - $1,150.00
  1850.   
  1851.    The system requirements for all databases are a 5.25" CD-ROM drive 
  1852.    with software to read ISO-9660 format.
  1853.  
  1854.    Contact:  Darrin L. Dimmick
  1855.              dld@magi.ncsl.nist.gov     (301)975-4147
  1856.  
  1857.    If you wish to order the database, please contact:
  1858.      Standard Reference Data
  1859.      National Institute of Standards and Technology
  1860.      221/A323
  1861.      Gaithersburg, MD 20899
  1862.      (301)975-2208  or  (301)926-0416 (FAX)
  1863.  
  1864. 4. CEDAR CD-ROM 1: Database of Handwritten
  1865.    Cities, States, ZIP Codes, Digits, and Alphabetic Characters
  1866.  
  1867.    The Center Of Excellence for Document Analysis and Recognition (CEDAR)
  1868.    State University of New York at Buffalo announces the availability of
  1869.    CEDAR CDROM 1: USPS Office of Advanced Technology 
  1870.    The database contains handwritten words and ZIP Codes
  1871.    in high resolution grayscale (300  ppi  8-bit)  as  well  as
  1872.    binary handwritten digits and alphabetic characters (300 ppi
  1873.    1-bit).  This database is intended to encourage research  in
  1874.    off-line  handwriting  recognition  by  providing  access to
  1875.    handwriting samples  digitized  from  envelopes in a working
  1876.    post office.
  1877.      Specifications of the database include:
  1878.      +    300 ppi 8-bit grayscale handwritten words (cities,
  1879.           states, ZIP Codes)
  1880.           o    5632 city words
  1881.           o    4938 state words
  1882.           o    9454 ZIP Codes
  1883.      +    300 ppi binary handwritten characters and digits:
  1884.           o    27,837 mixed alphas  and  numerics  segmented
  1885.                from address blocks
  1886.           o    21,179 digits segmented from ZIP Codes
  1887.      +    every image supplied with  a  manually  determined
  1888.           truth value
  1889.      +    extracted from live mail in a  working  U.S.  Post
  1890.           Office
  1891.      +    word images in the test  set  supplied  with  dic-
  1892.           tionaries  of  postal  words that simulate partial
  1893.           recognition of the corresponding ZIP Code.
  1894.      +    digit images included in test  set  that  simulate
  1895.           automatic ZIP Code segmentation.  Results on these
  1896.           data can be projected to overall ZIP Code recogni-
  1897.           tion performance.
  1898.      +    image format documentation and software included
  1899.    System requirements are a 5.25" CD-ROM drive with software  to  read  ISO-
  1900.    9660 format.
  1901.    For any further information, including how to order the
  1902.    database, please contact:
  1903.      Jonathan J. Hull, Associate Director, CEDAR, 226 Bell Hall
  1904.      State University of New York at Buffalo, Buffalo, NY 14260
  1905.      hull@cs.buffalo.edu (email)
  1906.  
  1907. 5. AI-CD-ROM (see above under "commercial software packages")
  1908.  
  1909. ------------------------------------------------------------------------
  1910.  
  1911.  
  1912.  
  1913. That's all folks.
  1914.  
  1915. ========================================================================
  1916.  
  1917. Acknowledgements: Thanks to all the people who helped to get the stuff
  1918.                   above into the posting. I cannot name them all, because
  1919.                   I would make far too many errors then. :->
  1920.  
  1921.                   No ?  Not good ?  You want individual credit ?
  1922.                   OK, OK. I'll try to name them all. But: no guarantee....
  1923.  
  1924.   THANKS FOR HELP TO:
  1925. (in alphabetical order of email adresses, I hope)
  1926.  
  1927. Allen Bonde <ab04@harvey.gte.com>
  1928. Alexander Linden <al@jargon.gmd.de>
  1929. S.Taimi Ames <ames@reed.edu>
  1930. anderson@atc.boeing.com
  1931. Kim L. Blackwell <avrama@helix.nih.gov>
  1932. Paul Bakker <bakker@cs.uq.oz.au>
  1933. Yijun Cai <caiy@mercury.cs.uregina.ca>
  1934. L. Leon Campbell <campbell@brahms.udel.edu>
  1935. David DeMers <demers@cs.ucsd.edu>
  1936. Denni Rognvaldsson <denni@thep.lu.se>
  1937. Wesley R. Elsberry <elsberry@cse.uta.edu>
  1938. Frank Schnorrenberg <fs0997@easttexas.tamu.edu>
  1939. Gary Lawrence Murphy <garym@maya.isis.org>
  1940. gaudiano@park.bu.edu
  1941. Glen Clark <opto!glen@gatech.edu>
  1942. Phil Goodman <goodman@unr.edu>
  1943. guy@minster.york.ac.uk
  1944. Jean-Denis Muller <jdmuller@vnet.ibm.com>
  1945. Jonathan Kamens <jik@MIT.Edu>
  1946. Jon Gunnar Solheim <jon@kongle.idt.unit.no>
  1947. Josef Nelissen <jonas@beor.informatik.rwth-aachen.de>
  1948. Kjetil.Noervaag@idt.unit.no
  1949. Luke Koops <koops@gaul.csd.uwo.ca>
  1950. William Mackeown <mackeown@compsci.bristol.ac.uk>
  1951. Peter Marvit <marvit@cattell.psych.upenn.edu>
  1952. masud@worldbank.org
  1953. Yoshiro Miyata <miyata@sccs.chukyo-u.ac.jp>
  1954. Jyrki Alakuijala <more@ee.oulu.fi>
  1955. mrs@kithrup.com
  1956. Maciek Sitnik <msitnik@plearn.edu.pl>
  1957. R. Steven Rainwater <ncc@ncc.jvnc.net>
  1958. Michael Plonski <plonski@aero.org>
  1959. [myself]
  1960. Richard Andrew Miles Outerbridge <ramo@uvphys.phys.uvic.ca>
  1961. Richard Cornelius <richc@rsf.atd.ucar.edu>
  1962. Rob Cunningham <rkc@xn.ll.mit.edu>
  1963. Osamu Saito <saito@nttica.ntt.jp>
  1964. Ted Stockwell <ted@aps1.spa.umn.edu>
  1965. Thomas G. Dietterich <tgd@research.cs.orst.edu>
  1966. Thomas.Vogel@cl.cam.ac.uk
  1967. Ulrich Wendl <uli@unido.informatik.uni-dortmund.de>
  1968. Matthew P Wiener <weemba@sagi.wistar.upenn.edu>
  1969.  
  1970. Bye
  1971.  
  1972.   Lutz
  1973.  
  1974. -- 
  1975. Lutz Prechelt   (email: prechelt@ira.uka.de)            | Whenever you 
  1976. Institut fuer Programmstrukturen und Datenorganisation  | complicate things,
  1977. Universitaet Karlsruhe;  D-7500 Karlsruhe 1;  Germany   | they get
  1978. (Voice: ++49/721/608-4068, FAX: ++49/721/694092)        | less simple.
  1979.